播客应用Overcast开发者Marco Arment为降低AI服务成本,自建48台Mac mini服务器集群。他利用Apple Silicon芯片的高能效和统一内存优势,运行本地语音转录,以替代昂贵的云端AI服务。
Apple开放FastVLM视觉语言模型,可在搭载Apple Silicon芯片的Mac上体验。该模型基于MLX框架构建,提供近乎即时的高分辨率图像处理,视频字幕处理速度提升85倍,体积缩小3倍以上,支持多平台和浏览器直接使用。
苹果MLX框架新增CUDA支持,开发者现可在Apple Silicon设备开发后导出至CUDA环境运行。此举大幅降低开发成本,小型团队无需前期购置昂贵Nvidia硬件。由GitHub开发者主导的该项目已并入MLX主分支,虽不支持Mac直接连接Nvidia显卡运行,但开发测试阶段可完全在苹果设备完成。CUDA环境下性能显著优于Mac,结合Nvidia硬件在AI领域的优势,为开发者提供更强算力支持。这一更新将提升开发灵活性,降低准入门槛。
苹果MLX框架新增CUDA支持,开发者可在Mac上开发AI应用后无缝迁移至英伟达平台。这一突破解决了以往MLX依赖Metal框架导致部署受限的问题,由开发者@zcbenz耗时数月完成代码整合。新功能实现"代码导出兼容性",让开发者能以低成本Apple Silicon Mac开发,必要时再使用英伟达硬件部署,显著降低开发门槛。此举既保留Apple开发优势,又拓展部署灵活性,有望推动MLX框架生态扩展。
桌面端的智能聊天助手
CoreNet 是一个用于训练深度神经网络的库。
在Apple Silicon上原生使用MLX框架与数据对话
mlx-community
本模型是 Mistral AI 发布的 Ministral-3-3B-Instruct-2512 指令微调模型的 MLX 格式转换版本。它是一个参数规模为 3B 的大型语言模型,专门针对遵循指令和对话任务进行了优化,并支持多种语言。MLX 格式使其能够在 Apple Silicon 设备上高效运行。
该模型是 Kimi-Linear-48B-A3B-Instruct 的 MLX 格式转换版本,专为苹果 Mac Studio 等 Apple Silicon 设备优化。它是一个 480 亿参数的大型语言模型,支持指令跟随,适用于本地推理和对话任务。
McG-221
该模型是基于summykai/gemma3-27b-abliterated-dpo,使用mlx-lm 0.28.3版本转换而成的MLX格式模型。它是一个经过DPO(直接偏好优化)微调的27B参数Gemma 3大语言模型,专为在Apple Silicon(MLX框架)上高效运行而优化。
本模型是Falcon-H1-34B-Instruct指令微调版本的MLX格式转换版,专为Apple Silicon(M系列芯片)优化。它基于原始的Falcon-H1-34B-Instruct模型,通过mlx-lm工具转换为MLX框架兼容的8位量化格式,旨在在macOS设备上实现高效的本地推理。
Marvis-AI
这是一个基于MLX框架优化的文本转语音模型,从原始模型Marvis-AI/marvis-tts-100m-v0.2转换而来,采用6位量化技术,专门为Apple Silicon硬件优化,提供高效的语音合成能力。
本模型是基于moonshotai的Kimi-Linear-48B-A3B-Instruct大语言模型,使用mlx-lm工具转换为适用于Apple Silicon芯片(MLX框架)的8位量化版本。它是一个48B参数的指令微调模型,专为遵循人类指令和对话交互而设计。
lmstudio-community
Qwen3-VL-2B-Thinking是由Qwen推出的视觉语言模型,基于2B参数规模,使用MLX进行8位量化,专门针对Apple Silicon芯片进行了优化。该模型支持图像和文本的多模态理解与生成任务。
Qwen
Qwen3-VL-2B-Thinking是Qwen系列中最强大的视觉语言模型之一,采用GGUF格式权重,支持在CPU、NVIDIA GPU、Apple Silicon等设备上进行高效推理。该模型具备出色的多模态理解和推理能力,特别增强了视觉感知、空间理解和智能体交互功能。
这是MiniMax-M2模型的MLX格式转换版本,使用mlx-lm 0.28.1从原始模型转换而来,支持8位量化和分组大小为32的优化配置,专为Apple Silicon设备优化运行。
这是MiniMax-M2模型的MLX格式8位量化版本,使用mlx-lm 0.28.4从原始模型转换而来,专为Apple Silicon设备优化运行。
Granite-4.0-H-1B-8bit 是 IBM Granite 系列的小型语言模型,专门针对 Apple Silicon 芯片优化,采用 8 位量化技术,参数量为 1B,具有高效推理和低资源消耗的特点。
MiniMax-M2-6bit 是 MiniMaxAI/MiniMax-M2 模型的 MLX 格式转换版本,使用 mlx-lm 0.28.4 进行转换,支持在 Apple Silicon 设备上高效运行。
MiniMax-M2-4bit 是使用 mlx-lm 工具从 MiniMaxAI/MiniMax-M2 转换而来的 4 位量化版本,专门针对 Apple Silicon 芯片优化,提供高效的文本生成能力。
TheStageAI
TheWhisper-Large-V3是OpenAI Whisper Large V3模型的高性能微调版本,由TheStage AI针对多平台(NVIDIA GPU和Apple Silicon)的实时、低延迟和低功耗语音转文本推理进行了优化。
richardyoung
这是一个高性能的4位量化版本的Kimi K2 Instruct模型,专为使用MLX框架在Apple Silicon(M1/M2/M3/M4)Mac上运行而优化。该模型拥有6710亿参数,支持128K上下文窗口,在质量和效率之间实现了出色的平衡,是大多数实际部署的理想选择。
nightmedia
这是Qwen3-Next-80B-A3B-Instruct模型的MLX格式转换版本,专为在Apple Silicon设备上高效运行而优化。该模型是一个800亿参数的大型语言模型,支持文本生成任务,具有强大的对话和推理能力。
这是一个基于Qwen3-Coder-REAP-25B-A3B模型转换的MLX格式版本,使用mlx-lm工具从原始模型转换而来,专门针对Apple Silicon芯片优化,支持高效的文本生成任务。
基于GLM-4.5-Air模型使用REAP方法进行25%专家剪枝的优化版本,转换为MLX格式以便在Apple Silicon设备上高效运行
这是Qwen3-VL-4B-Instruct模型的4位量化版本,专门针对Apple Silicon芯片优化,使用MLX框架转换。该模型是一个视觉语言模型,支持图像理解和多模态对话任务。
Qwen3-VL-8B-Instruct是由Qwen开发的视觉语言模型,经过MLX量化优化,专门针对Apple Silicon设备。该模型支持图像和文本的多模态输入,能够理解和生成与图像相关的文本内容。